间质性肺部疾病是一大批以不同程度的肺泡炎和肺纤维化为特征的异质性疾病。准确地诊断这些疾病对于制定治疗计划具有显着的指导价值。尽管以前的工作在分类间隙肺部疾病方面取得了令人印象深刻的结果,但仍有提高这些技术准确性的空间,主要是为了增强自动决策。为了提高分类精度,我们的研究提出了一个基于卷积神经网络的框架,并提供了其他信息。首先,通过在Hounsfield单元中重新缩放原始图像,并添加了ILD图像。其次,修改的CNN模型用于为每个组织产生分类概率的载体。第三,输入图像的位置信息,包括在某些位置在CT扫描中不同疾病的发生频率组成,用于计算位置权重向量。最后,使用两个向量之间的Hadamard产品用于为预测产生决策向量。与最先进的方法相比,使用公开可用的ILD数据库的结果显示了使用不同的其他信息预测这些数据的潜力。
translated by 谷歌翻译
Recent developments in natural language generation (NLG) using neural language models have brought us closer than ever to the goal of building AI-powered creative writing tools. However, most prior work on human-AI collaboration in the creative writing domain has evaluated new systems with amateur writers, typically in contrived user studies of limited scope. In this work, we commissioned 13 professional, published writers from a diverse set of creative writing backgrounds to craft stories using Wordcraft, a text editor with built-in AI-powered writing assistance tools. Using interviews and participant journals, we discuss the potential of NLG to have significant impact in the creative writing domain--especially with respect to brainstorming, generation of story details, world-building, and research assistance. Experienced writers, more so than amateurs, typically have well-developed systems and methodologies for writing, as well as distinctive voices and target audiences. Our work highlights the challenges in building for these writers; NLG technologies struggle to preserve style and authorial voice, and they lack deep understanding of story contents. In order for AI-powered writing assistants to realize their full potential, it is essential that they take into account the diverse goals and expertise of human writers.
translated by 谷歌翻译
特征提取方法有助于降低维度并捕获相关信息。在时间序列预测(TSF)中,功能可以用作辅助信息,以实现更好的准确性。传统上,TSF中使用的功能是手工制作的,需要域知识和重要的数据工程工作。在这项研究中,我们首先介绍了静态和动态功能的概念,然后使我们能够开发自主功能,以检索不需要域知识的静态特征(FRAN)的自动回归网络(FRAN)。该方法基于CNN分类器,该分类器经过训练,可以为每个系列创建一个集体和独特的类表示,要么是从该系列的部分中或(如果可以使用的类标签),从一组同一类中。它允许以相似的行为区分序列,但要从不同的类别中进行区分,并使从分类器提取的特征具有最大歧视性。我们探讨了我们功能的解释性,并评估预测元学习环境中该方法的预测能力。我们的结果表明,在大多数情况下,我们的功能会提高准确性。一旦训练,我们的方法就会创建比统计方法快的阶数级级。
translated by 谷歌翻译
许多基于模型的强化学习方法(MBRL)为他们可以提供的马尔可夫决策过程(MDP)模型的准确性和学习效率提供了保证。同时,状态抽象技术允许减少MDP的大小,同时相对于原始问题保持有限的损失。因此,令人惊讶的是,在结合两种技术时,即MBRL仅观察抽象状态时,没有任何保证可用。我们的理论分析表明,抽象可以在网上收集的样本(例如在现实世界中)引入依赖性,这意味着MBRL的大多数结果不能直接扩展到此设置。这项工作的新结果表明,可以使用Martingales的浓度不平等来克服此问题,并允许将R-MAX等算法的结果扩展到以抽象为设置的算法。因此,通过抽象的模型为抽象的RL生成了第一个性能保证:基于模型的强化学习。
translated by 谷歌翻译
由于其样本的复杂性很高,截至今天,模拟对于成功应用增强学习至关重要。然而,许多现实世界中的问题都表现出过度复杂的动力学,这使其全尺度模拟在计算上很慢。在本文中,我们展示了如何将许多代理的大型网络系统分解为多个局部组件,以便我们可以构建独立和并行运行的单独模拟器。为了监视不同局部组件彼此施加的影响,这些模拟器中的每个模拟器都配备了一个经过定期训练实际轨迹的模型。我们的经验结果表明,在不同的过程之间分配仿真不仅可以在短短几个小时内训练大型多机构系统,还可以帮助减轻同时学习的负面影响。
translated by 谷歌翻译
当这些代理商还具有适应我们自己的行为的能力时,学会与其他代理商合作是具有挑战性的。在合作环境中学习的实用和理论方法通常假定其他代理人的行为是静止的,或者对其他代理人的学习过程做出了非常具体的假设。这项工作的目的是了解我们是否可以在没有这种限制性假设的情况下可靠地学会与其他代理商合作,而这些假设不太可能在现实世界应用中保留。我们的主要贡献是一组不可能的结果,这表明没有学习算法可以可靠地学习与重复的矩阵游戏中所有可能的自适应伙伴合作,即使该合作伙伴可以通过某种固定策略合作。在这些结果的激励下,我们讨论了潜在的替代假设,这些假设捕捉了自适应伴侣只能理性地适应我们的行为的想法。
translated by 谷歌翻译
将文本插入段落中指定位置的任务(称为空白(FITB))对于各种应用程序与作家与自然语言生成(NLG)系统互动以制作文本的应用很有用。虽然先前的工作已经通过专门培训的模型来解决此问题,但更有用的模型是可以有效地执行_both_ fitb和延续的模型。在这项工作中,我们评估了使用单个模型完成这两个任务的可行性。我们表明,通过FITB式目标进行预训练的模型都可以完成这两个任务,而预先训练的持续训练的模型却没有。最后,我们展示了如何轻松地对FITB模型进行填充,以允许对一代的长度和单词选择进行细粒度的控制。
translated by 谷歌翻译
How can we plan efficiently in a large and complex environment when the time budget is limited? Given the original simulator of the environment, which may be computationally very demanding, we propose to learn online an approximate but much faster simulator that improves over time. To plan reliably and efficiently while the approximate simulator is learning, we develop a method that adaptively decides which simulator to use for every simulation, based on a statistic that measures the accuracy of the approximate simulator. This allows us to use the approximate simulator to replace the original simulator for faster simulations when it is accurate enough under the current context, thus trading off simulation speed and accuracy. Experimental results in two large domains show that when integrated with POMCP, our approach allows to plan with improving efficiency over time.
translated by 谷歌翻译
从演示和成对偏好推断奖励功能是对准与人类意图的强化学习(RL)代理的吉祥方法。然而,最先进的方法通常专注于学习单一奖励模型,从而使得难以从多个专家兑换不同的奖励功能。我们提出了多目标加强主动学习(道德),这是一种将社会规范多样化示范与帕累托最优政策相结合的新方法。通过维持分布在标量化权重,我们的方法能够以各种偏好交互地调整深度RL代理,同时消除了计算多个策略的需求。我们经验展示了道德在两种情景中的有效性,该方案模拟了需要代理人在规范冲突的情况下采取行动的交付和紧急任务。总体而言,我们认为我们的研究迈出了多目标RL的一步,具有学习奖励,弥合当前奖励学习和机器伦理文学之间的差距。
translated by 谷歌翻译
NLP研究人员需要更多,更高质量的文本数据集。收集人类标记的数据集是昂贵的,而通过从诸如维基的网络的自动检索收集的数据集是嘈杂的,并且可以包括不希望的偏差。此外,来自网络的数据通常包括在用于预先rain模型的数据集中,导致无意地交叉污染训练和测试集。在这项工作中,我们介绍了一种用于高效数据集策策的新方法:我们使用大型语言模型来为人类评估者提供种子几代,从而将数据集从写入任务转换为编辑任务。我们使用我们的方法来策划SynthBio - Wikibio的一个新的评估集 - 由描述虚构个人的结构化属性列表组成,映射到自然语言传记。我们表明,我们的虚构传记数据集比Wikibiiiiiiiiii远低,也更加均衡,而且对性别和国籍更加平衡。
translated by 谷歌翻译